CVPR 2022 | 子空间对抗训练
©PaperWeekly 原创 · 作者 | 鬼谷子
研究方向 | GAN图像生成、情绪对抗样本生成
引言
该论文是关于一篇对抗训练的文章,论文的代码已经开源。对抗训练是一种可以有效抵御对抗攻击的方法,然而其存在一个严重问题,即在训练过程中,模型会出现过拟合现象,PGD 攻击的鲁棒精度突然会下降到 0%。在该论文中,作者从一种新的优化角度来处理这个问题,作者首先揭示了每个样本的快速增长梯度与过拟合之间的密切联系,这也可以用于理解多步自适应算法中的过拟合现象。
论文标题:
Subspace Adversarial Training
论文链接:
https://arxiv.org/abs/2111.12229
代码链接:
https://github.com/nblt/Sub-AT
论文方法
当模型过拟合的现象出现的时候,在测试集中的模型的测试准确率会陡然下降。对抗训练时,神经网络在训练数据中获得了对抗信息,这会使得有害于模型对正常样本的泛化能力,导致正常分类准确率下降,同时也会丢失对于由 PGD 生成的新的对抗样本的泛化能力。由此可知,对抗信息的学习很难学习,它会导致神经网络在学习过程中出现巨大的波动,从而最终过拟合。
由于对抗样本学习的困难性,作者主要关注每个样本梯度的演化并通过平均梯度范数去分析模型的训练状态。作者主要在本文中去记录利用 fast 对抗训练方法去抵御 PGD-20 攻击的平均范数,可以发现当过模型的拟合现象出现时,平均梯度和准确率的会同时突然增大,这个现象也暗示着当模型的过拟合现象出现时,平均梯度范数会突然增大,导致神经网络在学习训练数据的过程中出现巨大的波动,从而导致模型的泛化能力下降。
3.1 控制梯度大小
由以上的数据分析可知,在模型的训练过程中,如何控制每个样本梯度的大小是非常重要的。论文的核心思想是在一个低维子空间里去限制对抗训练过程中的梯度的大小而不是在整个参数空间中。在该思想下,一个急需要解决的问题就是怎样获得这样一个可以进行有效对抗训练的子空间。最近的研究有研究者提出一个 DLDR 的算法,它可以有效从训练过程中提取用于优化的低维子空间,主要过程可以分为如下两步:
在该论文中,作者主要应用 DLDR 算法去提取可以有效对抗训练的子空间,这里需要注意的是采样模型参数的时候需要在模型过拟合出现之前。然后,在这个提取子空间里对神经网络的参数进行优化,这样可以有效缓解模型过拟合现象,并能够使模型获得更好的鲁棒性。
采样策略:对于 DLDR 算法,作者在每个训练批次中均匀采样两次。在每个采样批次中,模型将获得最好的分类性能。在训练初始阶段,由于子空间没有很好的评估出来,所以采样效果不是很好。
训练性能:如下图所示,子空间对抗训练可以很好将平均梯度范数数值在一个很低的区间里,这不仅可以有效地解决过拟合问题同时耶大大提高了模型的鲁棒性。另外,子空间对抗训练对模型学习率的选取也没有那么严苛,在一个较大学习率区间内模型学习都可以进行很好的收敛。
实验结果
下表所示为不同对抗训练方法在 CIFAR-10 和 CIFAR-100 数据集上的结果。作者将子空间对抗训练方法应用于不同的基本对抗训练方法中,并从相应的训练轨迹中提取子空间。可以发现训练在 200 个的 epoch 的学习率下,Fast AT 和梯度截断 FGSM AT 仍然会遇到严重的灾难性过度拟合现象。在没有任何其他正则化技术的情况下,论文中提出的子空间对抗训练的方法可以使得模型获得更好的鲁棒性。
如下表所示作者总结了不同学习率的训练结果,并对应汇总了对抗训练的时间能耗。可以发现简单地通过增加训练步长和半径,子空间对抗训练可以显著提高模型对对抗攻击攻击的鲁棒性,而不会遭受灾难性的过度拟合或额外的时间开销,另外与 PGD-10 对抗训练相比,子空间对抗训练只需要总训练时间的七分之一,这是一个相当大的优势。
从下图的结果可知,子空间对抗训练成功地解决了大学习率的过度拟合问题,并进一步提高了模型的鲁棒性,这表明使用大步长的学习率确实有利于提高模型的鲁棒性。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧